Logo

Tìm kiếm: Nvidia H100

CEO Nvidia Jensen Huang gặp Tổng thống Trump tại Nhà Trắng
CEO Nvidia Jensen Huang gặp Tổng thống Trump tại Nhà Trắng

Theo tờ Financial Times, CEO của Nvidia, ông Jensen Huang, sẽ có cuộc gặp với Tổng thống Mỹ Donald Trump tại Nhà Trắng. Nguồn tin thân cận cho biết cuộc gặp đã được lên kế hoạch từ trước, nhưng không tiết lộ cụ thể nội dung thảo luận. Tuy nhiên, với sự tập trung hiện tại của Nvidia vào lĩnh vực trí tuệ nhân tạo (AI), nhiều khả năng ông Huang và Tổng thống Trump sẽ bàn về các chính sách AI của Hoa Kỳ.

Tác giả: Mai Ngọc Mai Ngọc
931
HPE Thắng Lớn: Thỏa Thuận 1 Tỷ Đô Cung Cấp Máy Chủ AI cho Nền Tảng X của Elon Musk
HPE Thắng Lớn: Thỏa Thuận 1 Tỷ Đô Cung Cấp Máy Chủ AI cho Nền Tảng X của Elon Musk

Theo Bloomberg, tập đoàn công nghệ HPE đã đạt được một thỏa thuận trị giá hơn 1 tỷ đô la để xây dựng các máy chủ trí tuệ nhân tạo (AI) cho nền tảng mạng xã hội X, trước đây là Twitter, của Elon Musk. Để giành được hợp đồng này, HPE đã vượt mặt hai đối thủ nặng ký là Dell và Supermicro, những nhà cung cấp máy chủ AI hàng đầu.

Tác giả: Linh Hương Linh Hương
1188
Vượt Qua Lệnh Cấm: GPU NVIDIA H100 & H200 Lén Lút Vào Trung Quốc
Tác giả: Kiên Đăng Kiên Đăng
1864
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
3294
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?

Vào giữa tháng 10 năm 2023, Bộ Thương mại Hoa Kỳ đã công bố các quy định xuất khẩu mới cho chip AI và HPC được sử dụng trong các khối lượng công việc AI và HPC. Các quy định này nghiêm ngặt đến mức hầu hết các phần cứng hiệu suất cao không thể được gửi đến Trung Quốc và các quốc gia khác.

Tác giả: Tuấn Anh Tuấn Anh
3083
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
3407
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025

Trung Quốc đang đặt mục tiêu tăng cường 50% khả năng tính toán của nước này vào năm 2025, lên tổng cộng 300 ExaFLOPS. Đây là một phần trong chiến lược của nước này nhằm duy trì sức cạnh tranh trong lĩnh vực công nghệ cao, đặc biệt là trong lĩnh vực trí tuệ nhân tạo (AI) và máy tính hiệu năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
3683
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
3851
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
3724
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2409
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
2074
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: Nvidia H100

CEO Nvidia Jensen Huang gặp Tổng thống Trump tại Nhà Trắng
CEO Nvidia Jensen Huang gặp Tổng thống Trump tại Nhà Trắng

Theo tờ Financial Times, CEO của Nvidia, ông Jensen Huang, sẽ có cuộc gặp với Tổng thống Mỹ Donald Trump tại Nhà Trắng. Nguồn tin thân cận cho biết cuộc gặp đã được lên kế hoạch từ trước, nhưng không tiết lộ cụ thể nội dung thảo luận. Tuy nhiên, với sự tập trung hiện tại của Nvidia vào lĩnh vực trí tuệ nhân tạo (AI), nhiều khả năng ông Huang và Tổng thống Trump sẽ bàn về các chính sách AI của Hoa Kỳ.

Tác giả: Mai Ngọc Mai Ngọc
931
HPE Thắng Lớn: Thỏa Thuận 1 Tỷ Đô Cung Cấp Máy Chủ AI cho Nền Tảng X của Elon Musk
HPE Thắng Lớn: Thỏa Thuận 1 Tỷ Đô Cung Cấp Máy Chủ AI cho Nền Tảng X của Elon Musk

Theo Bloomberg, tập đoàn công nghệ HPE đã đạt được một thỏa thuận trị giá hơn 1 tỷ đô la để xây dựng các máy chủ trí tuệ nhân tạo (AI) cho nền tảng mạng xã hội X, trước đây là Twitter, của Elon Musk. Để giành được hợp đồng này, HPE đã vượt mặt hai đối thủ nặng ký là Dell và Supermicro, những nhà cung cấp máy chủ AI hàng đầu.

Tác giả: Linh Hương Linh Hương
1188
Vượt Qua Lệnh Cấm: GPU NVIDIA H100 & H200 Lén Lút Vào Trung Quốc
Tác giả: Kiên Đăng Kiên Đăng
1864
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC
Tesla tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC

Tesla đang tự tin tăng gấp đôi đơn đặt hàng chip siêu máy tính Dojo D1 với TSMC, theo một báo cáo được công bố bởi Economic Daily của Đài Loan. Mạch tích hợp ứng dụng cụ thể (ASIC) tùy chỉnh của Tesla được thiết kế để cung cấp năng lượng cho siêu máy tính Dojo của mình, để huấn luyện các mô hình AI hỗ trợ người lái và tự lái, nhưng cũng được kỳ vọng sẽ tìm thấy nhiều ứng dụng hơn trong robo-taxi và các dịch vụ liên quan.

Tác giả: Huy Hoàng Huy Hoàng
3294
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?
NVIDIA đối phó với quy định xuất khẩu chip AI của Mỹ như thế nào?

Vào giữa tháng 10 năm 2023, Bộ Thương mại Hoa Kỳ đã công bố các quy định xuất khẩu mới cho chip AI và HPC được sử dụng trong các khối lượng công việc AI và HPC. Các quy định này nghiêm ngặt đến mức hầu hết các phần cứng hiệu suất cao không thể được gửi đến Trung Quốc và các quốc gia khác.

Tác giả: Tuấn Anh Tuấn Anh
3083
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
3407
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025
Trung Quốc đặt mục tiêu tăng cường 50% khả năng tính toán vào năm 2025

Trung Quốc đang đặt mục tiêu tăng cường 50% khả năng tính toán của nước này vào năm 2025, lên tổng cộng 300 ExaFLOPS. Đây là một phần trong chiến lược của nước này nhằm duy trì sức cạnh tranh trong lĩnh vực công nghệ cao, đặc biệt là trong lĩnh vực trí tuệ nhân tạo (AI) và máy tính hiệu năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
3683
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100
Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100

Nga có kế hoạch xây dựng 10 siêu máy tính mới vào năm 2030, mỗi máy có thể chứa từ 10.000 đến 15.000 GPU Nvidia H100. Từ góc độ điện toán, điều này sẽ cung cấp cho Nga hiệu suất tương tự như hiệu suất được sử dụng để đào tạo Chat GPT. Một hệ thống có nhiều GPU H100 như vậy có thể tạo ra khoảng 450 FP64 TFLOPS, tức là một nửa ExaFLOP, một cấp hiệu năng siêu máy tính mà cho đến nay chỉ có Mỹ đạt được.

Tác giả: Hương Trang Hương Trang
3851
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100
Microsoft và OpenAI ra mắt chip AI Athena vào tháng 11 năm 2023, cạnh tranh với NVIDIA H100

Ngành công nghiệp AI đang chuyển dịch sang các giải pháp nội bộ, và mới đây, Microsoft và OpenAI đã được báo cáo là sẽ sớm ra mắt chip AI của mình, cạnh tranh với các sản phẩm như NVIDIA H100.

Tác giả: Diễm Phương Diễm Phương
3724
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023
Nvidia bán 900 tấn GPU H100 trong quý 2 năm 2023

Khi Nvidia cho biết họ đã bán được 10,3 tỷ đô la doanh thu từ phần cứng trung tâm dữ liệu trong quý 2 năm tài chính 2024, chúng ta có thể tưởng tượng rằng công ty đã bán được hàng tấn GPU tính toán H100 cao cấp của mình, nhưng công ty nghiên cứu thị trường Omdia cho biết Nvidia đã thực sự bán được 900 tấn bộ xử lý H100 trong quý 2 năm dương lịch 2023.

Tác giả: Huy Hoàng Huy Hoàng
2409
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
2074
Chọn trang